1、R+pmml+spark+airflow 调度
其他团队用 R 语言训练模型并转为 pmml 文件,然后我们使用 spark 将这个 pmml 文件封装为 jar,使用 airflow 提交到 yarn。 val is: InputStream = fs.open(path) val pmml: PMML = PMMLUtil.unmarshal(is) modelEvaluator = ModelEvaluatorFactory.newInstance.newModelEvaluator(pmml)
2、python+sklearn+airflow 调度
其他团队使用 python 训练好 sklearn 模型,并 joblib.dumps() 保存,然后我们在 python 文件中 joblib.load() 加载改文件,使用 airflow 离线调度。
3、xgboost+spark+xgb4j
我们使用的是分布式的 spark 版的 xgboost,训练好的模型直接保存为二进制文件 model.booster.saveModel(hdfsOutStream),然后 xgboost4j 加载该文件 XGBoost.loadModel(is) 实现线上实时预测。
4、tensorflow+tensorflow 的 java 库
ft 模型先转为 protobuf 协议的模型,frozen_graph = freeze_session(get_session(), output_names=["output"]) tf.train.write_graph(frozen_graph, "./", "model.pb", as_text=False)
然后使用 tf 的 java 库加载改 pb 模型,在线预测 try (Graph graph = new Graph()) { graph.importGraphDef(Files.readAllBytes(Paths.get("xxx/model.pb"))); try (Session sess = new Session(graph)) { float[][] input = xxx; try (Tensor x = Tensor.create(input); Tensor y = sess.runner().feed("input", x).fetch("output").run().get(0)) { float[][] result = new float[1][y.shape[1]]; y.copyTo(result); System.out.println(Arrays.toString(y.shape())); System.out.println(Arrays.toString(result[0])); } } } ...
5、keras+Flask
python 环境先将 keras 模型保存为 hdf5 文件 model.save(model.h5),然后在轻量级的 web 框架 flask 中加载实现线上预测。
1、离线预测 + 不跨语言
这种最简单,就是用什么语言训练的就用什么语言预测,而且不用考虑多并发和响应时间等问题,例如方式 2。
2、离线预测 + 跨语言
用一种语言训练,另一种语言预测,但是不用考虑多并发和响应时间等问题,例如方式 1。
3、在线预测 + 不跨语言
用同一种语言训练和预测,同时要考虑多并发和响应时间等问题,例如方式 3、4、5。像 scala 和 java 这种都是跑在 jvm 上的,以及 tf 自己实现了 java 库的,我们这里认为是同一种语言,
4、在线预测 + 跨语言
用不同的语言训练和预测,同时要考虑多并发和响应时间等问题,我们目前还没有这种。但是类型 2 和 3 变一下就是在线 + 跨语言。
不跨平台的,即当训练和预测使用同一种开发语言的时候,PMML 就没有必要使用了,因为任何中间格式都会牺牲掉独有的优化。 而其他跨平台的模型要转为 java 能使用的类(因为我们的业务大部分是 java 实现的),这个工具就是 jpmml-evaluator。
Java Evaluator API for Predictive Model Markup Language (PMML).
它可以加载以下模型:
PMML:Predictive Model Markup Language 预测模型标记语言。
data mining group 推出的,有十多年的历史了。是一种可以呈现预测分析模型的事实标准语言。标准东西的好处就是,各种开发语言都可以使用相应的包,把模型文件转成这种中间格式,而另外一种开发语言,可以使用相应的包导入该文件做线上预测。
PMML 是基于 XML 的,看个例子
一般的结构是
pmml 支持的 model 有
1、生成 pmml 文件
sklearn:pipeline = PMMLPipeline([ ('mapper', mapper), ("classifier", linear_model.LinearRegression()) ]) pipeline.fit(heart_data[heart_data.columns.difference(["chd"])], heart_data["chd"]) sklearn2pmml(pipeline, "lrHeart.xml", with_repr = True)
R: 类似 使用 r2pmml
Spark MLlib: 这个库有一些模型已经自带了保存 PMML 模型的方法,可惜不全
2、jpmml 加载 pmml 文件
先添加 maven 依赖,
<dependency> <groupId>org.jpmml</groupId> <artifactId>pmml-evaluator</artifactId> <version>1.4.2</version> </dependency> <dependency> <groupId>org.jpmml</groupId> <artifactId>pmml-evaluator-extension</artifactId> <version>1.4.2</version> </dependency>
然后加载 pmml 模型和调用
PMML pmml; try(InputStream is = ...){ pmml = org.jpmml.model.PMMLUtil.unmarshal(is); }
1、PMML 为了满足跨平台,牺牲了很多平台独有的优化。所以很多时候我们用算法库自己的 api 保存得到的模型文件要比转为 PMML 的模型文件小很多。同时 PMML 模型文件加载也要比算法自己独有的格式文件慢很多。
2、用 PMML 模型文件预测的结果跟算法自身预测的结果会有一点点偏差,尽管不大。
3、对于复杂的模型如 xgboost、tensorflow 等,生成的 PMML 模型文件会很大,加载和预测会慢很多。
https://github.com/jpmml/jpmml-evaluator
http://dmg.org/pmml/v4-3/GeneralStructure.html
https://zhuanlan.zhihu.com/p/23382412
https://www.jianshu.com/p/0016a34c82c8
https://blog.csdn.net/fansy1990/article/details/53293024